Les géants du numérique signent un accord contre l’utilisation trompeuse de l’IA dans le cadre d’élections


C’est un texte de trois pages, qui contient de grands principes et des moyens d’action, qu’ont signé vendredi 16 février une vingtaine de grandes entreprises du numérique. Parmi celles-ci, Google, Meta, OpenAI, Microsoft, Amazon, X, TikTok, Adobe, Snap, ou encore Stability AI, qui promettent, grâce à cet accord « d’aider à empêcher les contenus trompeurs générés par IA [intelligence artificielle] d’interférer dans les élections prévues cette année dans le monde », peut-on lire dans un communiqué commun.

La signature de ce texte a eu lieu dans le cadre du forum sur la sécurité de Munich, un événement rassemblant de nombreux ministres et chefs de gouvernement, comme la vice-présidente américaine, Kamala Harris, la présidente de la commission européenne, Ursula von der Leyen, le chancelier allemand, Olaf Scholz, ou encore le président ukrainien, Volodymyr Zelensky.

Alors que la moitié de la population mondiale en âge de voter est appelée aux urnes en 2024 (que ce soit lors de scrutins libres ou déjà joués d’avance), la pression s’accroît sur les grandes entreprises du numérique, dont les outils et les plates-formes sont régulièrement exploités à des fins de manipulation politique. Cette année, les technologies d’intelligence artificielle générative, qui permettent de produire de toutes pièces des images ou de manipuler des vidéos et des sons concentrent les inquiétudes.

Parmi les signataires se trouvent des entreprises à la pointe dans le développement de ces outils, comme OpenAI ou Google, et d’autres dont les plates-formes sont utilisées pour diffuser ces contenus, telles que TikTok – parfois, comme c’est le cas pour Meta (propriétaire de Facebook, Instagram et WhatsApp), les deux à la fois.

Traçabilité des contenus

Dans ce texte, ces vingt entreprises visent « les contenus audio, les vidéos ou les images convaincants générés par IA, qui, de façon malhonnête, simulent ou modifient l’apparence, la voix ou les actes de candidats, d’organisateurs de scrutins, ou d’autres acteurs-clés d’élections démocratiques, ou qui fournissent de fausses informations aux électeurs sur quand, où et comment voter. »

Elles s’engagent à travailler au développement d’outils communs, permettant, par exemple, de « marquer » ces contenus, notamment au moment de leur création, afin d’assurer leur traçabilité. Ce qui permettrait à chaque image générée par IA de contenir une sorte de « tatouage numérique », lisible par les machines. Un travail déjà en cours, avec, notamment, le standard C2PA.

Ces entreprises affirment également leur volonté de chercher à détecter ces contenus politiques trompeurs sur leurs plates-formes, et évoquent certaines mesures envisageables : utiliser des technologies de détection, donner la possibilité aux créateurs d’indiquer facilement qu’ils ont eu recours à l’IA, ou permettre aux utilisateurs de signaler des contenus suspects.

Mais une fois ces contenus détectés, comment les plates-formes comptent-elles agir ? Le texte reste relativement flou, évoquant « des réponses rapides et proportionnées ». « Cela pourrait inclure – mais ce n’est pas limité à cela – l’adoption et la publication de règles, et travailler à fournir des informations contextuelles » quand un tel contenu est détecté. Evasif, mais ces entreprises marchent sur des œufs en tentant de concilier la lutte contre les contenus trompeurs et la liberté d’expression – elles précisent qu’elles devront « faire attention au contexte, et préserver l’expression éducative, documentaire, artistique, satirique ainsi que politique ». Les signataires s’engagent aussi à faire preuve de transparence en ce qui concerne les politiques mises en œuvre et à participer à l’information auprès du grand public des risques existants.

Des cas encore rares

Cet accord, non contraignant, fait surtout office de grande déclaration de principe, concernant un sujet sensible sur lequel ces entreprises sont très attendues. Mais il ne contient pas de nouvelles mesures fracassantes – il s’inscrit dans la lignée de ce qu’avaient déjà, par le passé, annoncé certains de ces groupes. En juillet, Google, Meta, OpenAI et Microsoft s’étaient, par exemple, engagés auprès de la Maison Blanche à développer des moyens d’indiquer à leurs utilisateurs quand un contenu était généré par IA. Meta a réitéré cet engagement au début de février, dans un post de blog, affichant son intention d’identifier « dans les prochains mois » toute image générée par IA.

Ces entreprises subissent la pression de différents gouvernements, qui menacent de légiférer au sujet de l’intelligence artificielle. Avec cet accord, elles espèrent rassurer les législateurs quant à leur capacité d’autorégulation. L’Union européenne a, de son côté, déjà pris des décisions, avec l’AI Act, validé par les représentants des Vingt-Sept le 2 février, qui devrait entrer en vigueur en 2025. Le texte impose, entre autres, l’étiquetage des deepfakes.

Le Monde

Offre spéciale étudiants et enseignants

Accédez à tous nos contenus en illimité à partir de 8,99 euros par mois au lieu de 10,99 euros

S’abonner

Les vingt signataires ont toutefois tenu à rappeler, dans ce texte, que les contenus générés par IA « ne sont pas les seuls à représenter des risques, et que des manipulations traditionnelles [cheapfakes] peuvent aussi être utilisées aux mêmes fins ». L’an dernier, une vidéo montée de façon à faire croire que Joe Biden touchait de manière répétée la poitrine de sa petite-fille avait ainsi largement circulé. Les signataires ont également souligné que l’IA était un outil puissant pour se défendre contre les tentatives de manipulation, citant la détection rapide de campagnes malveillantes, la capacité d’agir simultanément dans différentes langues et à grande échelle.

Les entreprises ont également insisté sur le fait que cette lutte ne relevait pas de leur seule responsabilité : « Nous nous engageons à faire notre part en tant qu’entreprises technologiques, tout en affirmant que l’usage trompeur de l’IA ne représente pas seulement un défi technique, mais un problème politique, social et éthique, et nous espérons que d’autres s’engageront également à agir dans le reste de la société. »

Jusqu’ici, quelques exemples de contenus politiques trompeurs ont émergé. Des habitants du New Hampshire ont récemment reçu des appels automatiques, reproduisant la voix de Joe Biden, visant à les décourager d’aller voter à la primaire de janvier. De quoi faire craindre un déferlement à l’approche des prochaines élections – même si dans les faits les cas restent encore rares. Pour le moment, l’immense majorité des contenus nuisibles produits par IA vise d’abord les femmes, représentées dans des mises en scène pornographiques, comme en a récemment fait les frais la star américaine Taylor Swift.

Le Monde



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.